大家好,之前介紹了卷積神經網路,也說明了卷積層與池化層的運算原理與用途,不過我今天才想到,我好像還沒有對深度神經網路做過介紹,雖然之前都有提過深度神經網路相關的知識,但還是有許多沒有講到的,因此今天就決定要對深度神經網路做介紹。
深度神經網路(Deep Neural Network)是在神經網路領域上的一大進展,其效能遠超過以往的方法,之所以能有突破性的進步,有以下幾個原因,首先是運算能力的提升,以前神經網路是使用CPU來做運算,而現在是以GPU來運算,使得運算效能提升了許多;再來是用來訓練模型的資料變多了,而資料變多歸功於儲存技術提升,以及儲存成本降低;還有就是激活函數ReLU,以往在隱藏層使用的激活函數大多是Sigmoid,Sigmoid函數是1/(1+exp(-x)),是區間在0和1之間的S形曲線,會造成的問題是在層數太深時,會導致梯度消失,而ReLU函數就能有效解決這個問題。
今天介紹了一點深度神經網路,明天的主題會是迴歸問題。